AI моделите представят погрешно новинарските събития почти половината от времето, казва проучване
ИИ моделите като ChatGPT рутинно показват неправилно новинарските събития, предоставяйки неверни отговори на въпроси съвсем половината от времето, откри изследване.
Проучването, оповестено в сряда от Европейския съюз за радио и телевизия (EBU) и BBC, прави оценка точността на повече от 2700 отговора, дадени от OpenAI на ChatGPT, Gemini на Гугъл, Microsoft Copilot и Perplexity.
Препоръчани истории
лист от 4 продукта лист 1 от 4Стотици антиимигрантски протестиращи възпламениха транспортно средство, нападнаха полицията в Дъблинсписък 2 от 4Вътре във войната за отнемане от независимост на Израел против палестинцитесписък 3 от 4Студени кафези, нищожна храна: палестинско американско момче страда в Израел пандизчия 4 от 4Войната Русия-Украйна: Списък на основни събития, ден 1336край на листата
Двадесет и две публични медии, представляващи 18 страни и 14 езика, зададоха общ набор от въпроси на асистентите с изкуствен интелект сред края на май и началото на юни за изследването.
Като цяло, 45 % от отговорите имаха най-малко един „ забележителен “ проблем, съгласно проучвания.
Снабдяването беше най-вече постоянно срещан проблем, с 31 % от отговорите, включващи информация, която не е подкрепена от цитирания източник, или погрешно или непроверимо приписване, наред с други проблеми.
Липсата на акуратност е идващият максимален принос за неверните отговори, засягайки 20 % от отговорите, следвана от неналичието на подобаващ подтекст с 14 %.
Близнаци имаха най-значимите проблеми, основно свързани с източника, с 76 % от отговорите са наранени, съгласно изследване.
Всички изследвани AI модели са позволили съществени в действителност неточности, съгласно проучването.
Цитираните неточности включват Perplexity, потвърждавайки, че сурогатното майчинство е нелегално в Чехия и ChatGPT, акцентирайки папа Франциск като настоящ понтифекс месеци след гибелта му.
OpenAI, Гугъл, Microsoft и Perplexity не дадоха отговор незабавно на настояванията за коментар.
В увод към отчета Жан Филип Де Тендер, заместник-генерален на EBU, и Пийт Арчър, началник на AI в BBC, приканиха софтуерните компании да създадат повече, с цел да понижат грешките в своите артикули.
„ Те не са приоритизирали този проблем и би трябвало да го създадат в този момент “, споделиха Де Тендер и Арчър.
„ Те също би трябвало да бъдат транспарантни, като постоянно разгласяват техните резултати по език и пазар. ”